12 research outputs found

    New contributions for modeling and simulating high performance computing applications on parallel and distributed architectures

    Get PDF
    In this thesis we propose a new simulation platform specifically designed for modeling parallel and distributed architectures, which consists on integrating the model of the four basic systems into a single simulation platform. Those systems consist of storage system, memory system, processing system and network system. The main characteristics of this platform are flexibility, to embrace the widest range of possible designs; scalability, to check the limits of extending the architecture designs; and the necessary trade-offs between the execution time and the accuracy obtained. This simulation platform is aimed to model both existent and new designs of HPC architectures and applications. Then, depending on the user's requirements, the model can be focused on a set of the basic systems, or by the contrary on the complete system. Therefore, a complete distributed system can be modeled by integrating those basic systems in the model, each one with the corresponding level of detail, which provides a high level of flexibility. Moreover, it provides a good compromise between accuracy and performance, and flexibility provided for building a wide range of architectures with different configurations. A validation process of the proposed simulation platform has been fulfilled by comparing the results obtained in real architectures with those obtained in the analogous simulated environments. Furthermore, in order to evaluate and analyze how evolve both scalability and bottlenecks existent on a typical HPC multi-core architecture using different configurations, a set of experiments have been achieved. Basically those experiments consist on executing the two application models (HPC and checkpointing applications) in several HPC architectures. Finally, performance results of the simulation itself for executing the corresponding experiments have been achieved. The main purpose of this process is to calculate both the amount of time and memory needed for executing a specific simulation, depending of the size of the environment to be modeled, and the hardware resources available for executing each simulation. ----------------------------------------------------------------------------------------------------------------------------------------------------------En esta tesis se propone una nueva plataforma de simulación específicamente diseñada para modelar sistemas paralelos y distribuidos, la cual se basa en la integración del modelo de los cuatro sistemas básicos en una única plataforma de simulación. Estos sistemas están formados por el sistema de almacenamiento, el sistema de memoria, el sistema de procesamiento (CPU) y el sistema de red. Las principales características de esta plataforma de simulación son flexibilidad, para abarcar el mayor rango de diseños posible; escalabilidad, para comprobar los límites al incrementar el tamaño de las arquitecturas modeladas; y el balance entre los tiempos de ejecución y la precisión obtenida en las simulaciones. Esta plataforma de simulación está orientada a modelar tanto sistemas actuales como nuevos diseños de arquitecturas HPC y aplicaciones. De esta forma, dependiendo de los requisitos del usuario, el modelo puede estar enfocado a un conjunto de sistemas, o por el contrario, éste puede estar enfocado en el sistema completo. Por ello, se pueden modelar sistemas distribuidos completos integrando los sistemas básicos en un único modelo, cada uno con su nivel de detalle correspondiente, lo cual proporciona un alto nivel de flexibilidad. Además, esta plataforma proporciona un buen compromiso tanto entre precisión y rendimiento, como en la flexibilidad proporcionada para poder construir un amplio rango de arquitecturas utilizando diferentes configuraciones. Además, se ha llevado a cabo un proceso de validación de la plataforma de simulación propuesta, comparando los resultados obtenidos en entornos reales con aquellos obtenidos en los modelos análogos. Posteriormente, se han realizado una serie de experimentos para realizar una evaluación y análisis de cómo evolucionan, tanto la escalabilidad como los cuellos de botella, existentes en una arquitectura HPC típica multi-core utilizando diferentes configuraciones. Básicamente estos experimentos consisten en ejecutar 2 modelos de aplicaciones (HPC y checkpointing) en varias arquitecturas. Finalmente, se han calculado datos de rendimiento de la propia plataforma de simulación con los experimentos realizados. El propósito de este proceso es calcular, tanto el tiempo como la cantidad de memoria necesaria, para ejecutar una simulación concreta dependiendo tanto del tamaño del entorno simulado, como de los recursos disponibles para ejecutar tal simulación

    Modelado estocástico de las operaciones de entrada/salida sobre un disco

    Get PDF
    Una de las técnicas más habituales de evaluación del rendimiento de los subsistemas de entrada/salida de un computador es la utilización de modelos de simulación detallados que tienen en cuenta características específicas de los dispositivos de almacenamiento como la geometría del disco, la división en zonas y los algoritmos utilizados por las políticas de la memoria caché del disco. No obstante, dichos modelos requieren una mayor carga computacional y además están basados en discos que difieren en sus características y prestaciones de los discos más actuales. Otra alternativa es el modelado del dispositivo de almacenamiento, incluyendo su caché, como un proceso estocástico. Esto permite la generación de los tiempos requeridos por las operaciones realizadas sobre el dispositivo con una menor carga computacional y con un alto nivel de fidelidad. De esta manera se puede alcanzar una mayor escalabilidad en la evaluación del rendimiento de subsistemas de entrada/salida mediante simulación. En este trabajo se presenta una evaluación y modelado de un disco de tamaño moderado (20 GB). Los resultados obtenidos demuestran que los tiempos de acceso al disco evaluado constituyen un proceso estocástico estacionario y que este hecho es independiente de la activación o no de la caché de disco. Asi mismo los resultados sugieren que, en ausencia de caché, los tiempos de acceso siguen una distribución normal. En cambio, en presencia de caché, el tiempo de acceso se puede modelar como la composición de varias funciones de distribución, debido al efecto de la propia caché. En ambos casos nuestro modelo se ajusta a los datos experimentales con un error cuadrático medio menor al 1%.Publicad

    MT-EA4Cloud: A Methodology For testing and optimising energy-aware cloud systems

    Get PDF
    Currently, using conventional techniques for checking and optimising the energy consumption in cloud systems is unpractical, due to the massive computational resources required. An appropriate test suite focusing on the parts of the cloud to be tested must be efficiently synthesised and executed, while the correctness of the test results must be checked. Additionally, alternative cloud configurations that optimise the energetic consumption of the cloud must be generated and analysed accordingly, which is challenging. To solve these issues we present MT-EA4Cloud, a formal approach to check the correctness – from an energy-aware point of view – of cloud systems and optimise their energy consumption. To make the checking of energy consumption practical, MT-EA4Cloud combines metamorphic testing, evolutionary algorithms and simulation. Metamorphic testing allows to formally model the underlying cloud infrastructure in the form of metamorphic relations. We use metamorphic testing to alleviate both the reliable test set problem, generating appropriate test suites focused on the features reflected in the metamorphic relations, and the oracle problem, using the metamorphic relations to check the generated results automatically. MT-EA4Cloud uses evolutionary algorithms to efficiently guide the search for optimising the energetic consumption of cloud systems, which can be calculated using different cloud simulators

    Empleo de herramientas de simulación con fines docentes para desarrollar prácticas de sistemas altamente distribuidos

    Get PDF
    El objetivo de este proyecto consiste en mitigar los problemas existentes para ejecutar aplicaciones distribuidas en las prácticas de la asignatura Programación de Sistemas Distribuidos. Para ello proponemos el uso del simulador SIMCAN, el cual ha sido validado contra arquitecturas reales. Concretamente, se propone adaptar este simulador, desarrollado en el contexto de la investigación, para fines docentes. Seguidamente, se utilizará la versión adaptada de SIMCAN en las prácticas de la asignatura Programación de Sistemas Distribuidos, del grado de Ingeniería de Computadores de la FDI/UCM

    Diseño y despliegue de un clúster de placas Raspberry Pi3 para la ejecución de las prácticas de la asignatura PSD

    Get PDF
    Este proyecto tiene como objetivo principal facilitar el desarrollo de las prácticas de la asignatura Programación de Sistemas Distribuidos (PSD), impartida en el grado en Ingeniería de Computadores de la FDI. Esta propuesta surge como continuación del proyecto de innovación docente concedido en el curso 16/17, en el cual se utilizó la herramienta de simulación SIMCAN para estudiar y analizar distintos tipos de sistemas distribuidos en las prácticas de la asignatura PSD

    Análisis de rendimiento de aplicaciones MPI en clusters de Raspberries Pi3

    Get PDF
    La asignatura Programación de Sistemas Distribuidos (PSD) dedica una parte del temario a las aplicaciones de alto rendimiento y, en particular, a las aplicaciones desarrolladas con MPI. En resumen, estas aplicaciones despliegan en las máquinas físicas del sistema distribuido una serie de procesos, los cuales deben explotar -de la forma más eficiente posible- los recursos compartidos del sistema para incrementar su rendimiento. El objetivo principal de este proyecto consiste en analizar el rendimiento de clusters de bajo presupuesto, concretamente, de sistemas formados por placas Raspberry Pi3

    Revista iberoamericana de educación

    No full text
    Resumen basado en el de la publicaciónTítulo, resumen y palabras clave en español, inglés y portuguésMonográfico con el título: "Educación y pandemia: efectos y opciones de políticas en Iberoamérica"Se describe cómo los estudiantes y docentes mexicanos de Educación Media Superior se adaptan a la situación de emergencia sanitaria provocada por el COVID-19. Se recolectaron datos representativos de diferentes estados, instituciones públicas y privadas ubicadas en contextos urbanos y rurales mexicanos. Pedagógicamente, docentes y estudiantes han sido flexibles, al adaptar métodos presenciales combinando recursos digitales y tradicionales. Tecnológicamente, solo la mitad de los docentes reportan una adecuada conectividad a Internet, lo que limita el uso de los recursos digitales. Psicológicamente, se identifica una prevalencia de estados emocionales aflictivos y de estrés, dando lugar a un estado de bienestar socioemocional general vulnerable. Se revela la importancia de la evaluación del aprendizaje y el contacto con los estudiantes, tanto para el aprendizaje como para el bienestar socioemocional. Se permiten ver fortalezas y áreas de oportunidad para el Sistema Educativo Mexicano.ES

    Sociedad y economía : estudios sobre Puerto Vallarta y su región

    Get PDF
    De manera general, podemos decir que los temas que se incluyen en este libro abordan aspectos muy significativos sobre la problemática económica y social de la región de Bahía de Banderas que seguramente nos permitirán entender la realidad que se vive en esta parte de la costa de Jalisco, y por qué no, tratar de incidir en ella para transformarla
    corecore